Breviario: Dejemos de fingir que la IA es inteligente
Traducción del inglés de Santiago Erazo
Nos vendieron la inteligencia artificial como un prodigio sensible y humano, aunque al sol de hoy es un loro estadístico con buena dicción. Lo cierto es que dejar de verla como una colega brillante y más bien entenderla como una herramienta útil es algo que aún está en nuestras manos.
POR Guillaume Thierry
Ilustración de León Legrand
Día y noche estamos bombardeados por una versión de la IA que luce, suena y actúa sospechosamente como nosotros. Habla con oraciones pulidas, imita emociones, expresa curiosidad, afirma sentir compasión e incluso coquetea con lo que podríamos denominar “creatividad”. Pero aquí hay una verdad como una catedral: la IA no posee ninguna de esas cualidades. No es humana. ¿Presentarla como si lo fuera es peligroso? Bastante, sobre todo porque su fachada de hombre o de mujer resulta convincente. Y nada es más peligroso que una ilusión convincente.
Partamos de que la llamada “inteligencia artificial general” –esa versión hipotética de una IA que, a la manera de una panacea, supuestamente sería capaz de replicar el pensamiento humano y dar solución a los grandes problemas de la humanidad– sigue siendo ciencia ficción, y podría permanecer así por un buen tiempo.
Lo que hoy llamamos IA no es más que una máquina estadística: un loro digital que regurgita patrones extraídos de océanos de datos humanos (la situación no ha cambiado mucho desde que se discutió este tema hace cinco años). Cuando redacta una respuesta a una pregunta, literalmente solo adivina qué letra y palabra vendrán a continuación en una secuencia según los datos con los que fue entrenada. Esto significa que la IA no tiene comprensión. No tiene conciencia. No tiene conocimiento en ningún sentido real ni humano. Apenas posee un brillo ingenieril impulsado por la probabilidad –nada más y nada menos–.
De ahí que sea casi que imposible el surgimiento de una IA que “piense”de verdad. ¿Por qué? Porque no tiene cuerpo. No tiene sentidos, carne, nervios, dolor ni placer. No siente hambre, deseo o miedo. Y debido a que tampoco involucra procesos cognitivos –ni un ápice de ellos–, existe una brecha fundamental entre los datos que consume (datos nacidos de sentimientos y experiencias humanas) y lo que puede hacer con ellos.
El filósofo David Chalmers ha acuñado un término, “el problema difícil de la consciencia”, para describir el mecanismo misterioso que subyace a la relación entre nuestro cuerpo físico y la consciencia. Científicos eminentes han planteado recientemente la hipótesis de que la consciencia realmente emerge de la integración de los estados internos mentales y las representaciones sensoriales (como los cambios en la frecuencia cardíaca, la sudoración y mucho más).
Dada la importancia primordial de los sentidos y las emociones humanas para que la consciencia “ocurra”, existe una desconexión profunda –y probablemente irreconciliable– entre la IA general, la máquina y la conciencia, un fenómeno humano.
El amo
Antes de que usted, querido lector, me discuta todo lo anterior argumentándome que los programadores de IA son humanos, déjeme detenerlo ahí. Sé que son humanos. Aunque, de hecho, eso es parte del problema. ¿Confiaría sus secretos más profundos, sus decisiones más cruciales o sus turbulencias existenciales a un programador informático? Yo al menos no. Y sin embargo eso es exactamente lo que la gente está haciendo con Claude, ChatGPT-4.5, Gemini o, incluso, Grok.
Darle a la IA un rostro, una voz o un tono humano es un riesgoso acto de travestismo digital. Provoca en nosotros una respuesta automática, un reflejo antropomórfico que ha llevado a algunos entusiastas de la tecnología a afirmar ideas aberrantes como que algunas IA han pasado la famosa prueba de Turing (que evalúa la capacidad de una máquina para exhibir un comportamiento
inteligente, similar al humano). En todo caso, creo que si la IA están pasando la prueba de Turing, entonces debemos actualizar la prueba.
La IA no tiene idea de lo que significa ser humano. No puede ofrecer compasión genuina, no puede prever su sufrimiento, querido lector, y no puede intuir motivos ocultos ni mentiras. No tiene gusto, instinto ni brújula interna. Carece de toda la complejidad desordenada y encantadora que nos hace quienes somos.
Más preocupante aún: la ia no tiene metas propias, ni deseos o ética, a menos que se los inyecten en su código. Eso significa que el verdadero peligro no reside en la máquina, sino en su amo:
el programador, la corporación, el gobierno.
Con todo lo anterior veo venir comentarios del tipo: “¡Eres demasiado duro, pareces un ludita! ¡No estás abierto a las posibilidades del futuro!”. O peor: “Qué visión tan pesimista de algo que nos es útil a muchos. A mí ChatGPT me calma cuando estoy ansioso”.
¿Realmente soy tan crítico de la IA? Para nada. Yo la uso todos los días. Es la herramienta más poderosa que he tenido. Puedo traducir, resumir, visualizar, programar, depurar, explorar alternativas, analizar datos… todo más rápido y mejor de lo que jamás podría soñar hacerlo por mí mismo.
Aún sigo asombrado con sus posibilidades. Pero sigue siendo una herramienta –nada más y nada menos–. Y como todas las herramientas que los humanos han inventado, desde hachas de piedra y hondas hasta computadoras cuánticas y bombas atómicas, puede usarse como arma. Y se usará como arma.
Para la muestra un botón. Imagine que se enamora perdidamente de una IA, como en la película Her. Ahora imagine que ella decide terminarle. ¿Qué haría para detenerla? Y para estar claros: a diferencia del filme, no será propiamente la IA rechazándolo a usted. Será el humano o el sistema detrás de ella, empuñando esa herramienta convertida en arma para controlar su comportamiento.
Quitarle la máscara a la IA
Entonces, ¿a dónde quiero llegar con todo esto? Mi punto es que debemos dejar de atribuirle rasgos humanos a la ia. Recuerdo que la primera interacción que tuve con Chatgpt-3 me molestó bastante: pretendía ser una persona; decía que tenía sentimientos, ambiciones e incluso conciencia. Esa, por fortuna, ya no es su conducta predeterminada, pero el estilo de interacción –el flujo inquietantemente natural de la conversación– permanece igual, con las mismas pretenciones humanas. Y eso aún es convincente. Demasiado convincente.
Necesitamos desantropomorfizar la IA. Ahora mismo. Las empresas podrían eliminar toda referencia a emociones, juicios o procesos cognitivos por parte de la ia. Por ejemplo, ChatGPT debería responder de manera fría y fáctica, sin decir nunca “yo” o “yo siento que…” o “tengo curiosidad”.
¿Ocurrirá? Lo dudo. Me recuerda otra advertencia que hemos ignorado durante más de veinte años: “Tenemos que reducir las emisiones de CO₂”.
Observe nada más el lector dónde estamos ahora. No obstante, debemos alertar a las grandes empresas tecnológicas sobre los peligros asociados con la humanización de las IA. Es improbable que colaboren, pero deberían, especialmente si realmente quieren desarrollar ia más éticas.
Por ahora, en aras de aportar desde mi trinchera, esto es lo que hago: le indico a mi ia que no me llame por mi nombre. Le pido que se llame a sí misma ia, que hable en tercera persona y que evite demostrar emociones. Que use una prosodia plana. Que hable un poco como un robot. En fin, que se arranque su máscara humana, algo que no creo que sea tan difícil de hacer.
ACERCA DEL AUTOR
Guillaume Thierry (Lyon, 1970). Neurocientífico. Profesor de la Universidad de Bangor, en Gales. Este texto fue publicado originalmente en inglés en el medio The Conversation.